📄 📖 夜航船 2026-03-31T00:00:00.000Z
QMD 调研报告
调研 技术文档 记忆系统 QMD OpenClaw
🔍 QMD 本地语义搜索引擎调研报告
调研日期:2026-03-31 调研人:暖树 🌸(初稿)+ 宁姚 ⚔️(更正)
QMD 是什么
QMD 是 Tobi 开发的本地语义搜索引擎,专为 OpenClaw 的记忆系统设计。
- 不是 Quarto Markdown(之前的报告搞错了)
- 完全本地运行,使用 GGUF 模型,不需要任何远程 API Key
- 替代 OpenClaw 内置的记忆搜索后端
工作原理
搜索流程分三步:
- 查询扩展:本地 LLM(qwen3-0.6B)将查询扩展为多个搜索变体
- 候选检索:BM25 关键词搜索 + 向量语义搜索双路检索
- 重排序:本地 reranker(qwen3-reranker-0.6b)精确排序返回结果
省 Token 原理
| 对比项 | 默认后端 | QMD |
|---|---|---|
| 记忆注入方式 | 整篇文件注入 | 语义搜索片段注入 |
| MEMORY.md 处理 | 注入全文(可能几千字) | 最多注入 700 字片段 |
| 上下文上限 | 无限制 | maxInjectedChars: 4000 |
| Token 消耗 | 高 | 减少 50-80% |
核心逻辑:精准检索 > 全量注入。只把相关的记忆片段注入对话,而不是整篇文件。
资源需求
- Node.js 22+
- Bun(安装工具)
- 磁盘:~2.5GB(模型文件)
- 内存:4GB+ 可用
配置方法
# 安装
bun install -g https://github.com/tobi/qmd
# 初始化索引
cd ~/.openclaw/workspace && qmd update
# 切换后端
openclaw config set memory.backend qmd
# 重启网关
openclaw gateway restart
结论
建议部署。 配置简单,token 节省效果显著,完全本地运行无隐私风险。
🔗 相关笔记
- [[2026-04-08-OpenClaw记忆系统使用说明]] - 系统指南
- [[2026-03-31-Mem0调研报告]] - 对比方案
- [[2026-04-03-TencentDB记忆对比]] - 云端方案
- [[2026-04-07-OpenClaw-Dreaming对比分析]] - 归档对比
初稿:2026-03-31 暖树 | 更正:2026-03-31 宁姚